سفارش تبلیغ
صبا ویژن

چطور وب سایت را برای عنکبوت های گوگل سئو کنیم؟

 

ربات های گوگل یک سری نوع می‌باشند؟

قبلی‌از اینکه به جذاب‌ترین و کاربردی‌ترین نصیب این نوشته‌ی علمی برسیم، خوب میباشد توضیحی کوتاه در امر اشکال ربات‌های گوگل داده گردد. به عبارتی‌طور که اشاره شد، موتورهای کاوش برای دیدن صفحه های و محتواهای آنها و چرخیدن در تارنما (ازطریق لینک و پیوند‌سازی داخلی) از نرم‌افزار‌ها و ماشین‌هایی به کار گیری می‌نمایند که معمولا به آنها خزنده یا این که ربات‌های خزنده گفته میشود. متخصص seo هر سایتی می تواند برای خزندگان آموزش سئو در مشهد  شرایطی معلوم نماید (فولدر robots.txt).

 

در آن پوشه متخصص می تواند معلوم نماید ورود نوع خاصی از کراولرها به تارنما ممنوع میباشد. وی برای تعریف‌و‌تمجید‌کردن قانون ها برای خزندگان از اسم خاص هرمورد استعمال می‌نماید. بات‌های خزنده دردرجه‌ی‌اولیه براساس اینکه وابسته به کدام موتور کاوش میباشند و دردرجه‌ی‌دوم کاری که جاری ساختن می دهند با پسوندی (user-agent) شناخته میشوند. مثلا خزندگان گوگل که تنها محتواهای ویدئویی را میبینند و فهرست می‌نمایند با این اسم شناخته میشوند: Googlebot-Video یا این که Googlebot-News خزندگانی می‌باشند که تنها خبر‌ها را ایندکس آموزش سئو مشهد  می‌نمایند.

 

در حالتی‌که متخصص seo سایتی به‌ هر دلیلی نخواهد ویدئوهای سایتش ایندکس شوند، به‌راحتی میتواند آن خزندگان (Googlebot-Video) را از ورود به تارنما جلوگیری کردن نماید. طبیعی میباشد همگی‌ی گونه های خزندگان به یک‌اندازه اساسی نیستند و دارای تخصص seo زیرا می‌‌خواهد کل متحواهای سایتش چشم خواهد شد و در حاصل کاوش درجه بگیرد، دلیلی ندارد بخواهد خزندگان گوگل را از ورود به وب سایت ممانعت نماید. (می توانید لیست مهمترین بات‌های گوگل را در developers.google.com ملاحظه کنید.)

 

 

 

چطور وب سایت را برای عنکبوت های گوگل باصرفه کنیم؟

چنانچه دارای تخصص بهینه سازی می‌‌خواهد وب سایت فارغ از ایراد و دردسر ایندکس خواهد شد، بایستی فعالیت را برای خزندگان گوگل شل نماید. یعنی کرالرها برای ورود به وب سایت و چرخیدن در صفحه ها نباید اختلال یا این که مانعی داشته باشند. به‌همین‌استدلال، قبلی‌ازاینکه شغل های مربوط‌به‌ seo وبسایت صورت پذیرد، وبسایت را می بایست برای عنکبوت‌های گوگل باصرفه کرد. (زیرا پیش از این در امر مداقه فولدر robots.txt و تارنما مپ سخن گردیده‌است، در مفاد ذیل به آنان اشاره نکردم.)

 

 

 

1. وبسایت نباید از نگاه فنی و تکنیکی فعالیت را برای خزندگان گوگل دشوار نماید

در طراحی وب سایت ممکن میباشد از گویش‌های نرم‌افزار‌نویسی متفاوت و همینطور تکنولوژی‌های مختلفی استعمال شود. معمولا برای ارتقاء سرعت وب سایت و پویاتر و تعاملی‌ترکردن آن از AJAX و گویش نرم‌افزار‌نویسی جاوااسکریپ امداد گرفته میگردد. گوگل بارها اعلام نموده است که جاوااسکریپت ممکن میباشد عمل را برای کرالرها مشقت بار نماید و این منجر خواهد شد آنها نتوانند مجموع صفحه های را ببینند یا این که به طور کامل در تارنما بخزند. پس، دارای تخصص بهینه سازی وب سایت قبلی‌از هرچیز می بایست با مجموعه فنی و پیشرفت‌دهندگان تارنما کلام نماید و مطمئن خواهد شد که مانعی فنی برای عمل خزندگان گوگل در وبسایت نیست.

 

 

 

2. نباید از لینک و پیوند‌سازی داخلی و ساخت و ساز محتوای با کیفیت غافل شد

پندار کنم پر‌نور شد‌ه‌است که چرا به ربات‌های گوگل تیتر عنکبوت داده گردیده‌است. خزنده هنگامی وارد شیت‌ای از وب سایت می‌گردد، در هر لینکی (چه داخلی یعنی به دیگر صفحه ها به عبارتی تارنما یا این که لندینگ پیج‌ها چه فرنگی یعنی به تارنما‌های دیگر) که در آن ورقه وجود داشته باشد هم می‌رود. یعنی محتوای لینک و پیوند‌ها (صفحه ها) را نیز می‌بیند. به‌همین‌ادله سفارش میگردد که لینک و پیوند‌های فرنگی ازنوع Nofollow باشد تا عنکبوت از تارنما بیرون نشود و به گشتن فی مابین صفحه ها به عبارتی وبسایت ادامه دهد.

 

به‌همین‌عامل، لینک و پیوند‌سازی داخلی می بایست با‌اعتنا صورت بپذیرد تا خزنده درمیان صفحه ها و محتواهای متفاوت بچرخد و صفحه های بیشتری را ببیند. یادتان باشد که crawl budget هر تارنما بی‌غایت وجود ندارد. یعنی محصور میباشد و بات خزنده هربار که به وب سایت راز میزند قادر است صرفا تنی چند از صفحه های را ببیند و ایندکس نماید. ازطرف دیگر، کرالرهای گوگل به دنبال محتوای با کیفیت و به‌روز نیز می باشند. هرچه خزندگان گوگل یک شیت از وب سایت را بیشتر ببینند و محتوای آن شیت به‌روز و کیفیت خوب باشد، شانس اینکه آن شیت منزلت بهتری بگیرد بیشتر می شود.

 

 

 

3. حالت حضور و عمل بات‌های گوگل در تارنما بایستی به‌توجه زیرنظر گرفته خواهد شد

عمل خزندگان گوگل و سهمی که در بهینه سازی تارنما دارا هستند، آن‌قدر اساسی میباشد که در Google Search Console هم بخشی به آنها تخصیص داده گردیده‌است. دارای تخصص seo قادر است شرایط نقشه وب سایت، ارورها و همینطور داده های عددی خزندگان (Crawl Stats) را مشاهده نماید. باکمک‌تصاحب کردن از سرچ کنسول به‌راحتی میشود خطاهای کراول را یافت و برطرف کرد (در راهنمای کاملی باعنوان «هرآنچه که می بایست از خطاهای کراول یا این که crawl errors بدانید + راهنمای رفع آنها» کامل درباره ی این ایرادات کلام گردیده‌است).

 

در نصیب Settings سرچ کنسول آیتم‌ای وجود دارااست به‌اسم Crawl Stats. در آن گزارش جامعی از اینکه خزندگان گوگل چطور و چنددفعه در مقطع‌ی وقتی مشخصی در وبسایت خزیدند وجود دارااست. متخصص seo در همین ابزار قادر است از گوگل بخواهد تا نرخ خزیدن یا این که Crawl rate را کمتر نماید. نرخ خزیدن تعداد درخواست‌هایی میباشد که بات‌های گوگل هنگام خزیدن از وب سایت دارا هستند. هنگامی این تعداد بالا باشد ممکن میباشد مشکلاتی برای تارنما پیش بیاید. در شرایطی‌که متخصص seo بخواهد مطمئن خواهد شد که خزندگان برگه‌ای را دیدند و آن کاغذ ایندکس گردیده است، قادر است در سرچ کنسول این مسئله را تحقیق کند. این قابلیت نیز وجود دارااست که در حالتی‌که تغییراتی در شیت‌ی ایندکس‌گردیده تاسیس شده است از گوگل خواست تا کراولرها را مجدد به آن کاغذ‌ بفرستد.